多目标优化(MOO)旨在同时优化多个冲突的目标,并在机器学习中发现了重要的应用,例如最大程度地减少分类损失和差异,以在处理不同的人群方面以保持公平。最佳性,进一步优化一个目标至少将至少损害另一个目标,而决策者需要全面探索多个Optima(称为Pareto Front),以确定一个最终解决方案。我们解决了寻找帕累托阵线的效率。首先,使用随机多偏差下降(SMGD)从头开始寻找前部,对于大型神经网络和数据集很昂贵。我们建议基于预测器 - 校正方法来探索帕累托阵线作为一些初始Optima的歧管。其次,对于每个探索步骤,预测变量求解一个大规模的线性系统,该系统在模型参数数量中二次缩放,并且需要一个反向传播来评估求解器的二阶Hessian-vector产品。我们提出了一个只能线性缩放的高斯 - 纽顿近似,并且只需要每次迭代的一阶内产物。这还允许在大约求解线性系统时,在微小和共轭梯度方法之间进行选择。这些创新使大型网络成为可能的预测器 - 校准。关于多目标(公平和准确性)错误信息检测任务的实验表明,1)预测器 - 矫正器方法可以在更少的时间内找到比或与SMGD更好或与SMGD相似的方法; 2)提出的一阶方法不会损害二阶方法识别的帕累托前沿的质量,同时进一步缩短了运行时间。
translated by 谷歌翻译
We introduce Argoverse 2 (AV2) - a collection of three datasets for perception and forecasting research in the self-driving domain. The annotated Sensor Dataset contains 1,000 sequences of multimodal data, encompassing high-resolution imagery from seven ring cameras, and two stereo cameras in addition to lidar point clouds, and 6-DOF map-aligned pose. Sequences contain 3D cuboid annotations for 26 object categories, all of which are sufficiently-sampled to support training and evaluation of 3D perception models. The Lidar Dataset contains 20,000 sequences of unlabeled lidar point clouds and map-aligned pose. This dataset is the largest ever collection of lidar sensor data and supports self-supervised learning and the emerging task of point cloud forecasting. Finally, the Motion Forecasting Dataset contains 250,000 scenarios mined for interesting and challenging interactions between the autonomous vehicle and other actors in each local scene. Models are tasked with the prediction of future motion for "scored actors" in each scenario and are provided with track histories that capture object location, heading, velocity, and category. In all three datasets, each scenario contains its own HD Map with 3D lane and crosswalk geometry - sourced from data captured in six distinct cities. We believe these datasets will support new and existing machine learning research problems in ways that existing datasets do not. All datasets are released under the CC BY-NC-SA 4.0 license.
translated by 谷歌翻译
覆盖路径计划(CPP)旨在找到覆盖整个给定空间的最佳路径。由于NP坚硬的性质,CPP仍然是一个具有挑战性的问题。生物启发的算法(例如蚂蚁菌落优化(ACO))已被利用以解决该问题,因为它们可以利用启发式信息来缓解路径计划的复杂性。本文提出了快速跨度的蚂蚁菌落优化(Fasaco),蚂蚁可以在其中以各种速度探索环境。通过这样做,速度较高的蚂蚁可以更快地找到目的地或障碍物,并通过通过路径上的信息素步道传达此类信息来保持较低的速度蚂蚁。该机制可确保在减少总体路径计划时间时发现(子)〜最佳路径。实验结果表明,在CPU时间方面,Fasaco的效率比ACO高19.3-32.3 \%$,重新包含$ 6.9-12.5 \%$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $。这使得Fasaco在实时和能源有限的应用中吸引人。
translated by 谷歌翻译
安全探索是强化学习(RL)的常见问题,旨在防止代理在探索环境时做出灾难性的决定。一个解决这个问题的方法家庭以这种环境的(部分)模型的形式假设域知识,以决定动作的安全性。所谓的盾牌迫使RL代理只选择安全的动作。但是,要在各种应用中采用,必须超越执行安全性,还必须确保RL的适用性良好。我们通过与最先进的深度RL的紧密整合扩展了盾牌的适用性,并在部分可观察性下提供了充满挑战的,稀疏的奖励环境中的广泛实证研究。我们表明,经过精心整合的盾牌可确保安全性,并可以提高RL代理的收敛速度和最终性能。我们此外表明,可以使用盾牌来引导最先进的RL代理:它们在屏蔽环境中初步学习后保持安全,从而使我们最终可以禁用潜在的过于保守的盾牌。
translated by 谷歌翻译
Autonomous systems are often deployed in complex sociotechnical environments, such as public roads, where they must behave safely and securely. Unlike many traditionally engineered systems, autonomous systems are expected to behave predictably in varying "open world" environmental contexts that cannot be fully specified formally. As a result, assurance about autonomous systems requires us to develop new certification methods and mathematical tools that can bound the uncertainty engendered by these diverse deployment scenarios, rather than relying on static tools.
translated by 谷歌翻译
电子医疗保健记录是可用于患者分层的重要信息来源,以探索新型疾病表型。但是,它们可能具有挑战性,因为数据往往稀疏和不规则地采样。解决这些限制的一种方法是学习密集的嵌入,其代表使用经常性神经网络AutoEncoder(RNN-AE)的单个患者轨迹。该过程可以易于对不需要的数据偏差影响。我们表明,使用先前提出的RNN-AE模型的患者嵌入和群集可能受到轨迹偏差的影响,这意味着结果由每个患者轨迹中包含的数据量主导,而不是临床相关细节。我们调查了2个数据集(来自不同医院)和2个疾病区域的偏差,以及使用患者轨迹的不同部分。我们使用2个以前公布的基线方法的结果表示事件到最终轨迹的情况下特别强烈的偏见。我们提出了一种方法,可以使用RNN-AE顶部的对抗培训方案来克服这个问题。我们的研究结果表明,我们的方法可以减少所有情况下的轨迹偏差。
translated by 谷歌翻译
纵向电子健康记录(EHR)数据的可用性增加导致改善对疾病的理解和新颖表型的发现。大多数聚类算法仅关注患者轨迹,但具有类似轨迹的患者可能具有不同的结果。寻找不同轨迹和结果的患者亚组可以引导未来的药物开发,改善临床试验的招募。我们使用可以加权的重建,结果和聚类损耗开发经常性神经网络自动拓群体以群集EHR数据,以查找不同类型的患者群集。我们展示我们的模型能够从数据偏差和结果差异中发现已知的集群,表现优于基线模型。我们展示了29,222,229美元糖尿病患者的模型性能,显示出发现患有不同轨迹和不同结果的患者的簇,可用于帮助临床决策。
translated by 谷歌翻译
Figure 1: We introduce datasets for 3D tracking and motion forecasting with rich maps for autonomous driving. Our 3D tracking dataset contains sequences of LiDAR measurements, 360 • RGB video, front-facing stereo (middle-right), and 6-dof localization. All sequences are aligned with maps containing lane center lines (magenta), driveable region (orange), and ground height. Sequences are annotated with 3D cuboid tracks (green). A wider map view is shown in the bottom-right.
translated by 谷歌翻译